News

Was KI wirklich kann

09.12.2024

Wohin entwickelt sich Künstliche Intelligenz? LMU-Forschende über Einsatz und Grenzen der Technologie in Medizin, Wirtschaft und Gesellschaft

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie, da sie vielfältige Anwendungen ermöglicht. Bereits heute ist sie im Alltag angekommen. Sie steckt etwa hinter Übersetzungstools, Sprachrobotern und kommt in der Medizin zum Einsatz.

Welche Herausforderungen sind mit der Technologie verbunden? Worauf kommt es bei der weiteren Entwicklung an? Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen an der LMU beleuchten folgende Aspekte:

  • Erklärbarkeit von KI
  • Demokratische Kontrolle von KI
  • Hatespeech und KI
  • KI in der Medizin
  • Neue Geschäftsmodelle mit KI
  • Fake News und KI
  • KI und Urheberrechtsfragen
  • Datenqualität von KI
  • KI und Literatur
  • KI und Ethik

Porträt von Prof. Dr. Gitta Kutyniok, Inhaberin des Lehrstuhls für Mathematische Grundlagen der Künstlichen Intelligenz an der Fakultät für Mathematik, Informatik und Statistik und Referentin der KI Lectures, in einem Serverraum

Prof. Dr. Gitta Kutyniok ist Expertin für die mathematischen Grundlagen und für Erklärbarkeit von KI. | © LMU

Wie schafft es der Mensch, die Kontrolle zu behalten, wenn KI immer breiter angewendet wird?

Durch Künstliche Intelligenz (KI) stehen wir heute am Beginn der 4. Industriellen Revolution – und somit erwartet in den kommenden fünf bis zehn Jahren ein radikaler Wandel unsere gesamte Gesellschaft. Damit wir in dieser rasanten Entwicklung die Kontrolle behalten, ist ein fundamentales, das heißt mathematisches Verständnis von KI-Systemen essenziell. Leider ist dies, speziell für den Gebrauch von KI im Rahmen kritischer Infrastruktur, noch nicht voll ausgereift; zugleich zeigen die KI-Systeme noch große Zuverlässigkeitsprobleme.

Der EU AI Act schafft mit seinem „Recht auf Erklärung“ den Rahmen, die Kontrolle zu behalten. Konkret: Jedes KI-System muss zu jeglicher Entscheidung auch eine Erklärung ebendieser bereitstellen. Hierzu werden im einfachsten Fall genau die Komponenten der Eingabedaten markiert, die die höchste Relevanz für die Entscheidung der KI besaßen. Man würde zum Beispiel bei der Ablehnung eines Kreditantrags durch KI erwarten, dass sie auch das Gehalt einbezogen hat. Erklärbarkeitsalgorithmen bieten also eine exzellente Möglichkeit, die Sinnhaftigkeit der Entscheidung einer KI zu kontrollieren.

Prof. Dr. Gitta Kutyniok ist Inhaberin des Lehrstuhls für Mathematische Grundlagen der Künstlichen Intelligenz.

Prof. Dr. Gitta Kutyniok: Verstehen, wie Maschinen lernen

Prof. Dr. Jörn Ommer steht in einem Serverraum und blickt in die Kamera

Björn Ommers Forschungsschwerpunkt liegt im Bereich der „Computer Vision“, also der Entwicklung von Algorithmen, die Maschinen dazu befähigen, visuelle Daten auf semantischer Ebene zu verstehen. | © Ansgar Pudenz

Wie lässt sich KI demokratisieren?

Generative KI hat sich als entscheidende Ermöglichungstechnologie für zukünftigen technischen Fortschritt etabliert. Sie ermöglicht es, Inhalte wie Bilder oder Texte auf bloßen Zuruf zu erstellen. Allerdings war ihre Anwendung lange auf große Technologiekonzerne beschränkt, da nicht nur das Training, sondern gerade auch die Nutzung dieser Modelle immense Rechenkapazitäten erfordern.

Die Demokratisierung der KI bedeutet daher, diese Modelle so kompakt zu machen, dass sie auf erschwinglicher Consumer-Hardware anwendbar werden und keine teuren Rechenzentren mehr benötigen. Mit Stable Diffusion haben wir einen Ansatz entwickelt, der der KI eine effizientere Sprache beibringt, um etwa Bilder präzise und ressourcenschonend im Computer darzustellen. So können dann kompaktere KI-Modelle auf kleiner Hardware detaillierte Bilder produzieren. Dies öffnet die KI für eine breitere Nutzung und führt zu mehr Innovation, da Start-ups, Unternehmen und Forschende generative KI frei nutzen und weiterentwickeln können.“

Prof. Dr. Björn Ommer ist Inhaber des Lehrstuhls für KI für Computer Vision und Digital Humanities/die Künste an der LMU.

Über die Forschung von Prof. Dr. Björn Ommer: Im Nebel der Bilder

Porträtfoto von Prof. Dr. Sahana Udupa, Professorin für Medienanthropologie an der LMU

Prof. Dr. Sahana Udupa forscht im Rahmen mehrere Projekte über KI und extreme Sprache (extreme speech). | © Andreas Focke

Hilft KI, Hatespeech einzufangen?

„KI kann zwar gegen Hatespeech helfen, aber die Technologie ist zugleich Teil des Problems. Mithilfe von KI verbreitete Manipulationen finden ihren Weg bereits in politische Debatten. Denn die Bots früherer Jahre haben sich inzwischen weiterentwickelt, heute lassen sich Deep-Fakes viel leichter herstellen.

Andererseits gibt es deutliche Fortschritte beim Einsatz von KI für die Moderation von Inhalten im Web. Bei den aktuellen KI-Modellen ist es jedoch weiterhin schwierig, kulturell kodierte und sich laufend verändernde Ausdrücke von Hass zu erkennen sowie die komplexen Dimensionen zu erfassen, wie Sprache als Mittel der Macht eingesetzt werden kann. Es müssen daher Rahmenbedingungen entwickelt werden für eine verantwortliche KI, die die Anliegen von uns Menschen in den Vordergrund stellt, was wir als „ethical scaling“ bezeichnen. Unternehmen haben ihre Prozesse jedoch außerhalb der Reichweite von Forschung entwickelt, was jegliche Form der Intervention erschwert.“

Prof. Dr. med Clemens Cyran

Kann Dr. KI besser diagnostizieren als menschliche Ärzte?

„Für die Radiologinnen und Radiologen der Klinik und Poliklinik für Radiologie gehört die Künstliche Intelligenz in der klinischen Befundung seit Jahren zum Alltag. Über eine vollintegrierte KI-Plattform liefern verschiedene Algorithmen zur automatisierten Bildanalyse von Röntgen, Computertomographie und Magnetresonanztomographie diagnostische Informationen in Echtzeit, die die Ärztinnen und Ärzte in ihrer Diagnose unterstützen.

Die Detektion von Knochenbrüchen oder Lungenmetastasen gehört genauso zum breiten Anwendungsspektrum der KI-Algorithmen am LMU Klinikum wie die Diagnose von Brust- oder Prostatakrebs. Im Rahmen der klinischen Versorgung des mobilen CT-Scanners auf dem Münchner Oktoberfest 2024 durch die Klinik und Poliklinik für Radiologie wurden die Radiologen in der Diagnostik von Hirnblutungen ebenfalls von einem KI-Algorithmus unterstützt.

Prof. Dr. Michael Ingrisch | ©

Die Ergebnisse einer begleitenden prospektiven Studie zeigten, dass die diagnostische Sicherheit in der Diagnostik von Hirnblutungen durch den KI-Algorithmus als Zweitbefunder signifikant höher war. In solchen eng definierten Anwendungsbereichen kann KI einen wertvollen Beitrag leisten, insbesondere als Zweitbefunder im Hintergrund. Die KI unterstützt Radiologen dabei, die diagnostische Genauigkeit weiter zu verbessern, indem sie auf Auffälligkeiten hinweist, die dann unter Einbeziehung aller klinischen Informationen zu einer optimierten Diagnostik beitragen. Die KI fungiert als unterstützendes Werkzeug und ergänzt die menschliche Expertise – die endgültige Diagnose liegt weiterhin in den Händen erfahrener Ärzte.

Prof. Dr. med. Clemens Cyran ist Geschäftsführender Oberarzt der Klinik und Poliklinik für Radiologie am LMU Klinikum.

Prof. Dr. Michael Ingrisch ist Head of Clinical Data Science der Klinik und Poliklinik für Radiologie am LMU-Klinikum.

Prof. Dr. Stefan Feuerriegel beschäftigt sich in seiner Forschung mit den Herausforderungen von KI und Digitalisierung für Unternehmen. | © Florian Generotzky

Vor welche Herausforderung stellt KI Unternehmen und ihre Prozesse?

Das größte Risiko ist, die Technologie zu verschlafen. KI wird die Arbeit in vielen Berufen umfassend ändern. Dabei ist die größte Herausforderung häufig nicht die Technologie an sich – sondern die erfolgreiche Integration in die Unternehmensprozesse. Das bedeutet nicht nur, Software zu implementieren, sondern Geschäftsmodelle zu überdenken.

Alte IT-Systeme, starre Strukturen und zögernde Führungskräfte sind häufig bremsend. Wie viele der Mitarbeitenden nutzen denn KI schon jetzt tagtäglich? Vermutlich nicht viele, und häufig auch nicht in den Cheftagen. Doch wer heute nicht investiert, verliert morgen seine Relevanz.“

Prof. Dr. Stefan Feuerriegel, Leiter des Instituts für Künstliche Intelligenz (KI) im Management

Porträtfoto von Prof. Dr. Matthias Leistner, Inhaber des Lehrstuhls für Bürgerliches Recht und Recht des Geistigen Eigentums mit Informationsrecht und IT-Recht der LMU

Prof. Dr. Matthias Leistner beschäftigt sich u.a. mit Fragen des Rechts des Geistigen Eigentums. | © privat

Wie werden die Urheberrechtsstreitigkeiten um KI ausgehen? Womit darf KI trainiert werden?

Betrachtet man die globale Dimension der derzeitigen Konflikte, dann bestehen die liberalsten Rahmenbedingungen in Japan: Dort kann KI-Training derzeit praktisch urheberrechtsfrei durchgeführt werden. In den USA sind die meisten Rechtsstreitigkeiten anhängig. Der flexible Fair Use des US-amerikanischen Urheberrechts könnte möglicherweise dafür sprechen, dass sich dort am Ende eher liberale Verhältnisse herauskristallisieren. Sicher ist das nicht.

Die EU hat schon vor Jahren eine andere Lösung gewählt. Training zu nichtkommerziellen Forschungszwecken ist unter bestimmten Bedingungen frei. Grundsätzlich besteht auch eine urheberrechtliche Ausnahme für kommerzielles KI-Training. Die Rechteinhaber können aber aus dieser Regelung ausoptieren und dann gegebenenfalls ihr Material lizenzieren (wie es im Falle besonders hochwertiger Materialien einzelner Medienkonzerne auch schon geschieht). Der Haken an der Sache: Der Opt-out muss im Internet in „maschinenlesbarer“ Form erklärt werden. Die Voraussetzungen dafür sind aber hochumstritten – gerade ist in Hamburg das europaweit erste Urteil zu diesen Fragen ergangen. Es handelt sich aber nur um eine erstinstanzliche Entscheidung und es werden viele Jahre vergehen, bis der Europäische Gerichtshof über die an dieser Stelle offenen Rechtsfragen entscheidet. Bis dahin wird unvermeidlich gewisse Rechtsunsicherheit bestehen.

Ein entscheidender Punkt wird sein, wie sich diese Rechtsunsicherheit einerseits für die Urheberrechtsinhaber, andererseits aber auch für den Innovationsstandort Europa auswirkt. Denn europäisches Urheberrecht ist grundsätzlich nur anwendbar, wenn die Modelle auch in Europa trainiert wurden (was bei den großen amerikanischen Anbietern nicht der Fall ist). Die EU hat jetzt in der KI-VO versucht nachzujustieren und will die grundsätzlich nur regional anwendbaren Vorschriften nunmehr auf alle KIs ausweiten, die in Europa angeboten werden. Wie diese Regulierung sich auswirken wird, ist abzuwarten.

Insgesamt scheint derzeit noch vieles offen. Jedenfalls wird wesentlich sein, dass menschliche Autoren als die eigentlichen Kreativen, gegebenenfalls auch unter Einsatz von KI, weiterhin ihr Publikum und ihre Märkte finden sowie auch angemessen für ihre Tätigkeit vergütet werden: Das liegt nicht nur im Interesse der Allgemeinheit, sondern auch im wohlverstandenen Interesse der Tech-Unternehmen, die für ihre KI-Modelle entscheidend auf hochqualitativen menschlichen Input hinsichtlich des Trainingsmaterials angewiesen bleiben werden.“

Prof. Dr. Matthias Leistner ist Inhaber des Lehrstuhls für Bürgerliches Recht und Recht des Geistigen Eigentums mit Informationsrecht und IT-Recht der LMU.

Porträt von Frauke Kreuter, Professorin für Statistik und Data Science in den Sozial- und Humanwissenschaften an der LMU

Prof. Dr. Frauke Kreuter ist Expertin für Data Science und Datenqualität. | © Fotostudio klassisch-modern

Wie gut ist die Datenbasis von KI?


Für sozialwissenschaftliche Fragestellungen lassen die in KI-Systemen verwendeten Daten oft zu wünschen übrig. Ein repräsentatives Abbild der Gesellschaft zu erreichen, ist schwierig – und sich dabei allein auf willkürlich aus dem Internet gesammelte Daten zu verlassen, unrealistisch. Nationale Dateninfrastrukturprojekte, darunter auch BERD@NFDI, stehen jetzt vor der anspruchsvollen Aufgabe, qualitativ hochwertige Daten aus Prozessen oder Befragungen als Trainingsdaten aufzubereiten und bereitzustellen, ohne dabei die Privatsphäre Einzelner zu verletzen oder Individuen Risiken auszusetzen.

Meiner Ansicht nach birgt es jedoch noch größere Risiken, KI-Modelle weiterhin auf minderwertigen Daten zu trainieren. Die empirische Sozialforschung hat seit Langem nützliche Rahmenwerke zur Bewertung der Datenqualität entwickelt, die wir derzeit in interdisziplinären Teams für die KI-Welt anpassen. Ein Beispiel dafür ist dieses ICML-Positionspapier: "Insights from Survey Methodology can Improve Training Data"

Prof. Dr. Frauke Kreuter ist Inhaberin des Lehrstuhls Statistics and Data Science an der LMU.

Prof. Dr. Frauke Kreuter: Die Datenschatzsucherin

Alexander Wuttke steht vor mehreren von der Sonne beschienenen Bäumen

Prof. Dr. Alexander Wuttke untersucht, was liberale Gesellschaften gefährdet und stärkt. Dafür nutzt er auch digitale Daten und KI. | © LC Productions

Drohen (KI-getriebene) Fake-News-Kampagnen Wahlergebnisse zu beeinflussen?

Gerüchte und Halbwahrheiten begleiten demokratische Wahlkämpfe seit deren Anfängen. Heute jedoch bröckelt das Vertrauen in traditionelle Informationswächter wie öffentlich-rechtliche Medien und Zeitungen. Immer weniger Menschen orientieren sich an Institutionen, die nach journalistischen Kodizes Quellen prüfen. Stattdessen gewinnen soziale Medien als dezentrale Informationsquellen an Bedeutung.

Vor diesem Hintergrund eröffnet Künstliche Intelligenz eine neue Dimension, da generative Modelle gefälschte Bilder und Videos erzeugen können, die auf den ersten Blick oft nicht von echten zu unterscheiden sind. Der Wert vertrauenswürdiger Quellen steigt dadurch. Wir erleben somit eine Gleichzeitigkeit: Während der Bedarf an Orientierung auf einem Höhepunkt ist, befindet sich das Misstrauen in althergebrachte Autoritäten, die Orientierung geben könnten, auf einem Tiefpunkt.“

Prof. Dr. Alexander Wuttke ist Professor für Digitalisierung und Politisches Verhalten am Geschwister-Scholl-Institut der LMU.

Prof. Dr. Alexander Wuttke: Erforschen, wie Demokratien bestehen

Prof. Dr. Julian Schröter steht vor der Bibliothek Philologicum und blickt in die Kamera.

Prof. Dr. Julian Schröter

erforscht Literatur digital. | © LMU / LC Productions

Schreibt KI künftig Bestseller?

Je nachdem, was man unter ‚KI‘ versteht, ist KI längst an der Produktion von Romanen beteiligt, von denen einige Bestseller wurden. Wenn man so an die Frage herangeht und Sprachmodelle wie ChatGPT als Beispiele für KI begreift, dann ist die Frage wenig spektakulär. Sprengkraft gewinnt die Frage erst, wenn man sie radikaler als die Frage auffasst, ob KI ohne menschliche Hilfe Bestseller produzieren wird.

Dank neuester Software, so eine Meldung vom Oktober 2024, die angeblich abschätzen kann, ob ein Buch ein Bestseller wird, kann man sich ein Szenario vorstellen, wonach man einer KI einfach nur zu sagen braucht: ‚Schreib einen Bestseller!‘ Interessant war die öffentliche Sorge nach dieser Meldung. So war in den Zeitungen zu lesen, dass gute Literatur nicht eine Sache der Rekombination von bereits vorhandenen Mustern ist, sondern etwas Neues bieten müsse. Ein Algorithmus, der das Bestseller-Potenzial vorhersagt, werde die Schaffung von Neuem und damit von Kunst nicht befördern, sondern vielmehr verhindern.

Dieser Sorge liegt jedoch eine Vermischung von normativem Kunstbegriff und dem Marktphänomen des Bestsellers zugrunde. Viele Romane, die Bestseller werden, sind mehr oder weniger gut als Rekombination bewährter Muster beschreibbar. Ich kann mir gut vorstellen, dass stochastische Sprach-KI in Zukunft Texte generieren kann, die alle Voraussetzungen erfüllen, Bestseller zu werden.

Ich möchte mit einem Gedankenexperiment hierzu schließen: Angenommen, KI-generierte Romane werden künftig regelmäßig zu Bestsellern. Von diesem Moment an wird nicht zu verhindern sein, dass Verlage als wirtschaftliche Unternehmen KI-Systeme anweisen, Bestseller zu schreiben. Auf diese Weise werden täglich Tausende von Romanen erzeugt. Doch um Bestseller zu werden, müssen diese auch gekauft werden: Die Kaufbereitschaft lässt sich aber nicht ebenso einfach nach oben skalieren wie die Textproduktion. Nur ein geringer Anteil der so produzierten Texte kann also tatsächlich zum Bestseller werden.

Wenn KI-produzierte Literatur billiger herzustellen ist als von Menschen geschriebene Bücher, dann wird sich das Modell des KI-generierten Unterhaltungsprodukts durchsetzen. Wäre das schlimm? Für diejenigen, die vom Romanschreiben leben: ja. Kunstwerke im emphatischen Sinn können aber immer noch von Menschen geschrieben werden – mit oder ohne Hilfe von KI. Ob KI Kunst produzieren kann, war nicht die Frage dieses Beitrags.

Prof. Dr. Julian Schröter ist Professor für Digitale Literaturwissenschaften am Institut für Deutsche Philologie der LMU.

Wie menschlich darf eine KI sein oder handeln? 

Prof. Dr. Sven Nyhom trägt ein weißes Hemd und einen dunklen Sakko und blickt lächelnd in die Kamera.

Prof. Dr. Sven Nyholm

ist Experte für ethische Fragen, die sich bei Entwicklung und Anwendung von KI stellen. | © Angeline Swinkels | fotograaf

„Je menschenähnlicher eine KI-Technologie ist, desto größer ist das Risiko einer Täuschung. Gleichzeitig gilt jedoch: Je menschenähnlicher eine KI-Technologie ist, desto mehr „user-friendly“ kann sie eventuell sein. Generell sollten KI-Technologien in dem Maße menschenähnlich sein, wie es für die Förderung wichtiger menschlicher Werte und Interessen erforderlich ist.

KI-Technologien dürfen jedoch nicht so menschenähnlich sein, dass sie irreführend oder erniedrigend wirken oder gegen die Menschenwürde verstoßen. Es ist auch wichtig zu beachten, was es bedeutet, KI-Technologien menschenähnlich zu machen: Es bedeutet, sie in gewisser Weise unvollkommen und fehlerhaft zu machen, da Menschsein zumindest in gewisser Hinsicht auf Unvollkommen-Sein und auf Einschränkungen beruht.

Wenn Menschen zu viel Arbeit abverlangt wird, antworten sie manchmal: „Ich bin doch kein Roboter!“ Wenn wir also KI-Technologien menschenähnlich machen wollen, können sie nicht wie Roboter sein – hier haben wir also ein Paradox! Da wir jedoch wollen, dass KI-Technologien uns bei schwierigen Aufgaben helfen, haben wir oft ein Interesse daran, dass sie in bestimmten Bereichen leistungsfähiger sind als Menschen, also dass sie nicht zu fehlerhaft sind.

Wichtig ist, dass wir menschenähnlichen KI-Technologien keine Aufgaben überlassen, die wir lieber als Aufgaben und Aktivitäten für uns Menschen behalten würden. Was menschenspezifisch ist – und was Teil dessen ist, was das menschliche Leben schön und sinnvoll machen kann –, sollte beim Menschen bleiben und nicht an menschenähnliche KI-Technologien übergeben werden. Besser ist es, zu versuchen, unmenschliche Aufgaben an KI-Technologien zu übergeben und das Menschsein uns Menschen zu überlassen.“

Prof. Dr. Sven Nyholm ist Professor für Ethik der Künstlichen Intelligenz an der LMU.

Mehr zur Forschung mit und über KI an der LMU:

Dossier: Highlights der interdisziplinären KI-Forschung

Überblick: Forschung zur Künstlichen Intelligenz

Wonach suchen Sie?